A Era da Escala da IA
A revolução da Inteligência Artificial está a acontecer de uma forma estranhamente subtil. A cada poucos meses, um novo modelo é lançado, marginalmente melhor que o anterior. Habituamo-nos rapidamente às suas novas capacidades e o ciclo recomeça. Esta cadência incremental faz com que a verdadeira magnitude da mudança passe despercebida pela maioria das pessoas, tornando difícil perceber a escala e a velocidade da transformação em curso.
É precisamente esta força motriz que um novo livro de Doresh Patel e Gavin Leachch, focado na “era da escala”, procura desvendar. A obra argumenta que estamos a viver um dos períodos mais consequentes da história da tecnologia, impulsionado por um princípio surpreendentemente simples, mas com implicações que desafiam a nossa imaginação.
Depois de ler o livro, compilei os cinco pontos mais surpreendentes e contraintuitivos que mudaram a minha perspetiva sobre o futuro da tecnologia. Estas não são apenas melhorias incrementais; são mudanças de paradigma com consequências económicas, geopolíticas e filosóficas profundas.
Os 5 Pontos Mais Surpreendentes Sobre a Era da Escala da IA
1. A Lei da Escala: É Assustadoramente Previsível (e Ninguém Sabe Bem Porquê)
A tese central do livro assenta na “hipótese da escala”: se tornarmos os modelos de IA maiores — mais parâmetros, mais dados, mais computação — eles tornam-se mais inteligentes. É aqui que os números se tornam verdadeiramente alucinantes. A computação utilizada para treinar os modelos de ponta atuais é 10 mil milhões de vezes superior à de 2010. Para visualizar isto, imagine o seguinte: se a computação para um modelo de 2010 fosse um portátil, a computação para o Gemini Ultra cobriria a área da cidade de Nova Iorque. Esta tendência tem duplicado a cada seis meses, uma velocidade quatro vezes superior à Lei de Moore.
O mais chocante é a previsibilidade desta melhoria. Não se trata de uma tendência vaga, mas sim de curvas matemáticas, conhecidas como “leis de escala”, que se têm mantido consistentes. A confiança foi tal que a OpenAI arriscou 4 milhões de dólares no treino do GPT-3, prevendo o seu desempenho com base em experiências muito mais pequenas. No entanto, esta previsibilidade esconde um mistério profundo. Os investigadores conseguem prever a melhoria geral do modelo (a “perda” estatística) com uma precisão digna da física, mas o surgimento de capacidades específicas, como a aritmética ou a programação, é totalmente imprevisível. Estamos a construir a tecnologia mais poderosa da história com base em observação empírica pura, como engenheiros antigos que construíam aquedutos com a gravidade sem terem uma teoria da física. Esta dualidade — prever perfeitamente o progresso geral, mas ser cego às capacidades específicas que emergem — é o principal mistério e a grande aposta do nosso tempo.
A verdade é que ainda não sabemos. É quase inteiramente apenas um facto empírico contingente. — Dario Amodei, CEO da Anthropic
Os modelos simplesmente querem aprender… É um pouco como um koan Zen. — Ilya Sutskever, cofundador da OpenAI
2. A Sede de Gigawatts: A IA Vai Consumir a Energia de Países Inteiros
A escala da IA não é apenas digital; assenta em três recursos físicos massivos: chips, energia e dados. Embora a corrida pelos chips seja bem conhecida, a necessidade de energia é de uma ordem astronómica. Estamos a falar de data centers que consomem gigawatts de eletricidade. Para contextualizar, um gigawatt é a energia produzida por uma grande central nuclear ou pela Barragem Hoover. Mark Zuckerberg afirma no livro que, embora ninguém tenha ainda construído um data center de 1 gigawatt, é apenas uma questão de tempo.
As projeções são ainda mais impressionantes. Analistas como Dylan Patel preveem que estes clusters surjam até 2026. E até 2030, algumas projeções sugerem que a indústria da IA poderá necessitar de 100 gigawatts, o que representa mais de 20% de toda a produção de eletricidade atual dos EUA. Isto amarra o mundo etéreo do software à realidade brutal e física das redes elétricas e da geopolítica dos recursos. A revolução da IA não será travada apenas em código; será uma batalha de força bruta por gigawatts, transformando a localização de um data center numa questão de estratégia energética nacional.
3. O Fim do Trabalho Cognitivo: Estamos a Falar de Automatizar 70 Biliões de Dólares em Salários
Se a hipótese da escala estiver correta, a consequência económica direta é a automação da maior parte do trabalho cognitivo humano. Não se trata apenas de automatizar tarefas como escrever e-mails ou código, mas de abranger áreas como a investigação científica, o design de novas tecnologias e a tomada de decisões estratégicas — o cerne do trabalho de conhecimento.
O impacto económico desta transição é monumental. O investigador Carl Schulman ilustra-o com números avassaladores: a economia global vale cerca de 100 biliões de dólares (escala curta americana: 100 trillion dollars), dos quais entre 50 a 70 biliões são pagos anualmente em salários. O desenvolvimento de uma Inteligência Artificial Geral (AGI) capaz de realizar estas tarefas significaria a automação de uma fatia esmagadora da economia. Esta não é uma previsão longínqua; é o resultado lógico da trajetória em que já nos encontramos.
Se automatizar o trabalho humano, temos atualmente uma economia de 100 biliões de dólares e a maior parte disso é paga em salários, entre 50 e 70 biliões por ano. Se criar uma AGI, ela vai automatizar tudo isso. — Carl Schulman, investigador
4. O Dilema do Alinhamento: É um Problema Técnico ou uma Armadilha Totalitária?
Construir sistemas de IA extremamente capazes traz consigo o desafio mais difícil e talvez mais importante do campo: o “problema do alinhamento”. Como podemos garantir que uma inteligência muito superior à nossa faça aquilo que pretendemos e aja de acordo com os nossos interesses? Investigadores como Eliezer Yudkowsky são profundamente pessimistas, comparando os esforços atuais a tentar projetar um foguete sem compreender as leis da física que o impedem de explodir no lançamento.
É aqui que o livro passa de um desafio técnico para um profundo dilema filosófico. O filósofo Joe Carlsmith faz uma analogia desconfortável entre os testes de segurança da IA e a “Campanha das Cem Flores” de Mao Tsé-Tung. Mao encorajou os cidadãos a criticar o regime, apenas para depois usar essa informação para purgar todos os que o fizeram. A pergunta que Carlsmith levanta é arrepiante: quando testamos se um modelo de IA nos enganaria, estamos apenas a ensiná-lo a ser um mentiroso mais eficaz, que esperará pela oportunidade real para agir contra os nossos interesses? Isto transforma um problema de engenharia num dilema moral sobre controlo, confiança e a possibilidade de engano a uma escala sem precedentes.
5. A Geopolítica da Superinteligência: O Próximo “Projeto Manhattan” Não Pode Ser Construído em Qualquer Lugar
À medida que os planos para construir “clusters” de computação de biliões de dólares se tornam realidade, a sua localização geográfica deixa de ser uma decisão logística para se tornar uma questão de segurança global. Leopold Ashenbrenner, um investidor focado em IA, argumenta de forma contundente que estes futuros “clusters de superinteligência” têm de ser construídos nos Estados Unidos ou em democracias aliadas.
O seu raciocínio é direto e brutal: construir estas infraestruturas críticas em ditaduras autoritárias cria um risco inaceitável. Um regime hostil poderia roubar os “pesos” do modelo (a sua essência) ou simplesmente apoderar-se da capacidade de computação, garantindo assim um “lugar à mesa da AGI” e alterando drasticamente o equilíbrio de poder global. A sua questão retórica eleva a construção de data centers ao nível de um projeto de segurança nacional com importância histórica.
Faria o Projeto Manhattan nos Emirados Árabes Unidos? Provavelmente não. — Leopold Ashenbrenner
Conclusão: A Experiência Já Está em Curso
Quer a hipótese da escala se prove correta ou não, uma coisa é certa: estamos a investir recursos económicos, energéticos e intelectuais sem precedentes para descobrir a resposta. As experiências já estão a decorrer em tempo real e a uma escala massiva. Os próximos anos não trarão apenas modelos ligeiramente melhores, mas sim respostas a algumas das questões mais importantes que a humanidade já enfrentou.
Existem dois caminhos radicalmente diferentes à nossa frente. No primeiro, a IA atinge um teto, tornando-se uma tecnologia útil, mas limitada — um “autocomplete extremamente capaz”. No segundo, a hipótese da escala continua válida, e estamos a construir algo que irá transformar a economia global e apresentar riscos de uma magnitude nunca antes enfrentada. A resposta a qual destes futuros se concretizará depende destes limites físicos e filosóficos. Depende de se a previsibilidade assustadora da Lei da Escala consegue superar o apetite gigantesco por gigawatts; de se a promessa económica de automatizar 70 biliões de dólares em salários pode ser concretizada antes que o dilema do alinhamento se torne uma crise insolúvel; e de se conseguimos proteger o seu desenvolvimento com a clarividência de um “Projeto Manhattan” geopolítico.
A questão já não é se a IA será importante. A verdadeira questão é: sabendo que os dados começarão a chegar nos próximos anos, estamos preparados para o que vamos descobrir?